Spider中间件

scrapy提供了两种中间件,下载中间件(Downloader Middleware)和Spider中间件(Spider Middleware)

Spider中间件

Spider中间件与下载中间件类似,只不过Spider中间件处理的是即将发往Spider处理的Response对象,以及从Spider返回的Response对象或Item对象。

如何激活Spider中间件:

在配置文件settings.py中的SPIDER_MIDDLEWARES中配置键值对,键为要打开的Spider中间件,值为数字,Spider中间件按照数字排列,即数字越低,越靠近处理引擎,数字越高,越靠近spider。
scrapy还有一个内部自带的Spider中间件配置SPIDER_MIDDLEWARES_BASE(不可覆盖)。scrapy在启用是会结合SPIDER_MIDDLEWARESSPIDER_MIDDLEWARES_BASE若要取消scrapy默认打开的Spider中间件,可在SPIDER_MIDDLEWARES将该中间件的值置为0。

SPIDER_MIDDLEWARES_BASE = 
{
    'scrapy.spidermiddlewares.httperror.HttpErrorMiddleware': 50,
    'scrapy.spidermiddlewares.offsite.OffsiteMiddleware': 500,
    'scrapy.spidermiddlewares.referer.RefererMiddleware': 700,
    'scrapy.spidermiddlewares.urllength.UrlLengthMiddleware': 800,
    'scrapy.spidermiddlewares.depth.DepthMiddleware': 900,
}
如何编写一个Spider中间件
class scrapy.spidermiddlewares.SpiderMiddleware
process_spider_input(response, spider)

当每个Response经过中间件时会被调用,优先级越高(值越小)的中间件,越先调用;该方法应该返回以下对象:None/抛出异常;

  1. 返回None:scrapy会继续执行其他中间件相应的方法,最终会传递给spider;
  2. 抛出异常:Request.errback会被调用来处理函数,如果还是继续抛出异常,则会调用process_spider_exception(),否则会以另一个方向调用process_spider_output()
process_spider_output(response, result, spider)

当每个Spider的返回经过Spider中间件会被调用,优先级越高的中间件,越晚被调用,与process_spider_input()相反;该方法返回以下对象:Request对象的可迭代对象/Item对象的可迭代对象/dcit

process_spider_exception(response, exception, spider)

process_spider_input()抛出异常时会被调用,应该返回以下对象:Request对象的可迭代对象/Item对象的可迭代对象/dcit

  1. 如果返回None:scrapy会继续调用接下去其他中间件的process_spider_exception(),直到没有其他中间件,最终到达引擎(被日志记录并抛弃);
  2. 如果返回可迭代对象:中间件链的process_spider_output()开始启动,不会继续调用其他中间件的process_spider_exception()
process_start_requests(start_requests, spider)

spider.start_requests()被调用时启动,和process_spider_output()类似,接受Request对象的可迭代器,并且必须放回Request对象的可迭代。

from_crawler(cls, crawler)

如果存在该函数,from_crawler会被调用使用crawler来创建中间器对象,必须返回一个中间器对象,通过这种方式,可以访问到crawler的所有核心部件,如settingssignals等。

scray提供的一些Spider中间件

下面看下一些Spider中间件的源码,更多的Spider中间件请查看文档和代码

HttpErrorMiddleware

HTTP异常状态码处理中间件

#httpproxy.py
"""
HttpError Spider Middleware

See documentation in docs/topics/spider-middleware.rst
"""
import logging

from scrapy.exceptions import IgnoreRequest

logger = logging.getLogger(__name__)


class HttpError(IgnoreRequest):
    """A non-200 response was filtered"""

    def __init__(self, response, *args, **kwargs):
        self.response = response
        super(HttpError, self).__init__(*args, **kwargs)


class HttpErrorMiddleware(object):

    @classmethod
    def from_crawler(cls, crawler):
        return cls(crawler.settings)

    def __init__(self, settings):   
        self.handle_httpstatus_all = settings.getbool('HTTPERROR_ALLOW_ALL')        #设置为True表示忽略状态码,由Spider处理所有响应码
        self.handle_httpstatus_list = settings.getlist('HTTPERROR_ALLOWED_CODES')   #可通过的非200状态码列表

    def process_spider_input(self, response, spider):
        """
        response表示响应包
        """
        if 200 <= response.status < 300:  # common case  200段返回码,表示正常
            return
        meta = response.meta
        # meta传递了handle_httpstatus_all用来表示当前请求均由Spider自己处理
        if 'handle_httpstatus_all' in meta:
            return
        #meta传递了需要自己处理的非200状态码列表
        if 'handle_httpstatus_list' in meta:
            allowed_statuses = meta['handle_httpstatus_list']
        elif self.handle_httpstatus_all:
            return
        else:
            #当前状态满足条件,返回
            allowed_statuses = getattr(spider, 'handle_httpstatus_list', self.handle_httpstatus_list)
        if response.status in allowed_statuses:
            return
        # 抛出由scrapy处理
        raise HttpError(response, 'Ignoring non-200 response')

    def process_spider_exception(self, response, exception, spider):
        #只处理HttpError的异常
        if isinstance(exception, HttpError):
            spider.crawler.stats.inc_value('httperror/response_ignored_count')
            spider.crawler.stats.inc_value(
                'httperror/response_ignored_status_count/%s' % response.status
            )
            logger.info(
                "Ignoring response %(response)r: HTTP status code is not handled or not allowed",
                {'response': response}, extra={'spider': spider},
            )
            return []
UrlLengthMiddleware

URL长度限制中间件

#urllength.py
"""
Url Length Spider Middleware

See documentation in docs/topics/spider-middleware.rst
"""

import logging

from scrapy.http import Request
from scrapy.exceptions import NotConfigured

logger = logging.getLogger(__name__)


class UrlLengthMiddleware(object):

    def __init__(self, maxlength):
        self.maxlength = maxlength

    @classmethod
    def from_settings(cls, settings):
        maxlength = settings.getint('URLLENGTH_LIMIT')          #URL最大长度
        if not maxlength:
            raise NotConfigured
        return cls(maxlength)

    def process_spider_output(self, response, result, spider):
        """
        result: dict/Request对象的可迭代/Item对象的可迭代器
        """
        def _filter(request):
            if isinstance(request, Request) and len(request.url) > self.maxlength:
                logger.debug("Ignoring link (url length > %(maxlength)d): %(url)s ",
                             {'maxlength': self.maxlength, 'url': request.url},
                             extra={'spider': spider})
                return False
            else:
                return True

        return (r for r in result or () if _filter(r))

总结

Spider中间件用的机会不是很多,本篇只是大致的讲了一下,如果后面有实际使用机会会重新补充。总的来说,下载中间件聚焦于下载前后,Spider中间件聚焦于Spider前后,两者略有重合的地方。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,569评论 4 363
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,499评论 1 294
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,271评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,087评论 0 209
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,474评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,670评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,911评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,636评论 0 202
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,397评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,607评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,093评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,418评论 2 254
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,074评论 3 237
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,092评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,865评论 0 196
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,726评论 2 276
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,627评论 2 270

推荐阅读更多精彩内容